×

processus de décision markovien meaning in English

markov decision process

Examples

  1. A Markov decision process (MDP) is a discrete time stochastic control process.
    Un processus de décision markovien est un processus de contrôle stochastique discret.
  2. The bandit problem is formally equivalent to a one-state Markov decision process.
    Un problème de bandit manchot peut être vu comme un processus de décision markovien avec un seul état.
  3. Conversely, if only one action exists for each state (e.g. "wait") and all rewards are the same (e.g. "zero"), a Markov decision process reduces to a Markov chain.
    S'il n'y a qu'une seule action à tirer dans chaque état et que les récompenses sont égales, le processus de décision markovien est une chaîne de Markov.
  4. A partially observable Markov decision process (POMDP) is a generalization of a Markov decision process (MDP).
    En théorie de la décision et de la théorie des probabilités, un processus de décision markovien partiellement observable (POMDP pour partially observable Markov decision process) est une généralisation d'un processus de décision markoviens (MDP pour Markov decision process).

Related Words

  1. processus de brdo-brijuni
  2. processus de cox
  3. processus de décision markovien partiellement observable
  4. processus de démarrage de windows nt
PC Version

Copyright © 2018 WordTech Co.